首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   13931篇
  免费   1737篇
  国内免费   1639篇
测绘学   5205篇
大气科学   1966篇
地球物理   2061篇
地质学   2897篇
海洋学   1165篇
天文学   1200篇
综合类   1422篇
自然地理   1391篇
  2024年   40篇
  2023年   152篇
  2022年   482篇
  2021年   646篇
  2020年   647篇
  2019年   565篇
  2018年   486篇
  2017年   815篇
  2016年   675篇
  2015年   690篇
  2014年   802篇
  2013年   989篇
  2012年   877篇
  2011年   810篇
  2010年   629篇
  2009年   780篇
  2008年   816篇
  2007年   964篇
  2006年   888篇
  2005年   728篇
  2004年   687篇
  2003年   522篇
  2002年   443篇
  2001年   372篇
  2000年   302篇
  1999年   269篇
  1998年   213篇
  1997年   148篇
  1996年   145篇
  1995年   138篇
  1994年   122篇
  1993年   107篇
  1992年   67篇
  1991年   61篇
  1990年   38篇
  1989年   39篇
  1988年   30篇
  1987年   18篇
  1986年   18篇
  1985年   10篇
  1984年   11篇
  1982年   8篇
  1981年   6篇
  1980年   6篇
  1979年   4篇
  1977年   11篇
  1973年   4篇
  1972年   4篇
  1971年   5篇
  1954年   7篇
排序方式: 共有10000条查询结果,搜索用时 46 毫秒
101.
Argo资料已成为海洋环境和气候变化研究重要的实测资料来源和基础数据支撑。自2007年全球Argo实时海洋观测网建成以来,每年产生的Argo资料稳固增长,数据总量呈现出海量增长趋势,如何实时有效地对Argo数据进行组织管理与信息服务已成为当前Argo资料共享的关键难题。本文针对Argo数据多源异构的时空特性及多元化的信息服务需求,综合运用分布式混合数据库架构,设计了一种适用于全球Argo资料组织管理的弹性扩展云存储模型,建立了基于Matlab的Argo网格化产品高效可视化方法,构建了基于Flex RIA的WebGIS服务框架,并研制了"全球Argo资料共享与服务平台"实例。平台实现了对全球Argo资料的查询浏览、快速下载及可视化分析等功能,并已在中国Argo实时资料中心部署及对外服务。  相似文献   
102.
A constitutive model that captures the material behavior under a wide range of loading conditions is essential for simulating complex boundary value problems. In recent years, some attempts have been made to develop constitutive models for finite element analysis using self‐learning simulation (SelfSim). Self‐learning simulation is an inverse analysis technique that extracts material behavior from some boundary measurements (eg, load and displacement). In the heart of the self‐learning framework is a neural network which is used to train and develop a constitutive model that represents the material behavior. It is generally known that neural networks suffer from a number of drawbacks. This paper utilizes evolutionary polynomial regression (EPR) in the framework of SelfSim within an automation process which is coded in Matlab environment. EPR is a hybrid data mining technique that uses a combination of a genetic algorithm and the least square method to search for mathematical equations to represent the behavior of a system. Two strategies of material modeling have been considered in the SelfSim‐based finite element analysis. These include a total stress‐strain strategy applied to analysis of a truss structure using synthetic measurement data and an incremental stress‐strain strategy applied to simulation of triaxial tests using experimental data. The results show that effective and accurate constitutive models can be developed from the proposed EPR‐based self‐learning finite element method. The EPR‐based self‐learning FEM can provide accurate predictions to engineering problems. The main advantages of using EPR over neural network are highlighted.  相似文献   
103.
以广州市中心城区为例,借助百度热力图、百度实时路况和百度地图POI数据,从中观层面多角度综合分析广州市中心城区就业与居住的空间分布关系。结果显示:1)工作时间段人口聚集的高值区整体呈带状分布,斑块较为细碎,但绝大部分集中在核心地带;人口主要高度集中于各区的商业繁华地段与交通线路周围。而休息时间段的高值区则相对集中分布,用地效率较高,表现出多中心的圈层结构;人口主要高度集中分布在传统的老城居住区和新开发的商业住宅区,与核心商圈相对错开。2)不管是在上班时段还是休息时段,人口聚集程度越高的地区,POI设施密度表现越显著;这意味着人口的聚集具有一定的选择性,主要集中在城市基础设施发展较完备的区域。3)广州市中心城区各街道的职住比介于0.73~1.54,职住相对平衡,区域之间差异较小。其中,分值较高的街道多分布于核心地带(主要集中在越秀区、荔湾区北部和天河区南部),分值较低的街道多分布于核心地带的外围或边缘地区(主要在海珠区、荔湾区和白云区零散分布)。4)从城市交通响应上看,广州市中心城区工作日内早高峰的拥堵度大于晚高峰,但总体路况变化跨度不大,区内并没有出现特别严重的“潮汐通勤”现象。  相似文献   
104.
论文基于Linux平台,利用Python(V3.6)和MySQL(V5.7),开发了一套“面向ResearchGate的古气候文献数据采集系统”;并且通过人工判读从全球古气候资料共享网(https://www.ncdc.noaa.gov)数据库中遴选出1450篇古气候重建论文,对关键词进行了分类汇总,初步构建了用于古气候文献检索的关键词表。依据这一关键词表,利用古气候文献数据采集系统,从ResearchGate数据库中进行了文献检索。针对来自ResearchGate的32493篇文献和来自NCDC的1450篇文献,通过时间尺度、代用资料类型、气象要素、研究地区(国家)4个维度关键词词频的对比分析,发现2套文献数据关键词词频的相对差异基本一致。这表明依据初步构建的关键词表,自ResearchGate检索获取的古气候重建文献是有效的,能反映古气候重建研究现状。如此庞大数量的研究论文为下一步收集未被NCDC收录的古气候重建结果提供了丰富的数据源。“面向ResearchGate的古气候文献数据采集系统”达到了预期设计目标。  相似文献   
105.
地震油气储层的小样本卷积神经网络学习与预测   总被引:2,自引:0,他引:2       下载免费PDF全文
地震储层预测是油气勘探的重要组成部分,但完成该项工作往往需要经历多个环节,而多工序或长周期的研究分析降低了勘探效率.基于油气藏分布规律及其在地震响应上所具有的特点,本文引入卷积神经网络深度学习方法,用于智能提取、分类并识别地震油气特征.卷积神经网络所具有的强适用性、强泛化能力,使之可以在小样本条件下,对未解释地震数据体进行全局优化提取特征并加以分类,即利用有限的已知含油气井段信息构建卷积核,以地震数据为驱动,借助卷积神经网络提取、识别蕴藏其中的地震油气特征.将本方案应用于模型数据及实际数据的验算,取得了预期效果.通过与实际钻井信息及基于多波地震数据机器学习所预测结果对比,本方案利用实际数据所演算结果与实际情况有较高的吻合度.表明本方案具有一定的可行性,为缩短相关环节的周期提供了一种新的途径.  相似文献   
106.
破坏性地震往往导致严重的经济损失及人员伤亡,对地震损失价值评价有助于震前找出抗震弱点,提高抗震能力,实现减轻地震灾害损失的目的。传统空间模型在地震数据处理过程中,无法处理大数据对空间尺度选择的干扰,存在地震损失评估结果偏差大以及波动性高的弊端。因此,在云计算平台下,提出基于大数据的地震损失价值评估模型设计,对模型HAZ-China大数据的服务层次、地震应用服务层以及HAZ-China大数据体系结构进行设计,为用户提供震前、震时以及震后的地震损失价值评估服务。模型采用HBase分布式数据库实现大数据的存储和分析,设计房屋震害数据库以及云计算模型,通过考虑大数据因素的地震灾害损失综合评估过程,实现地震损失价值的准确评估。实验结果说明,所设计模型可实现地震损失价值的准确评估,具有较高的评估精度和稳定性。  相似文献   
107.
刘旭 《地震工程学报》2018,40(4):826-832
传统二维震害图像方法对震后区域进行研究时,由于其拍摄角度具有局限性,震后区域图像的视觉效果不理想。提出基于三维激光扫描技术的震后区域三维虚拟重建方法,采用三维激光扫描仪测量震后区域,获取该区域的点云数据,采用Cyclone软件合并点云数据后,得到震后区域拼接后的整体点云图,将该图点云数据进行去体外孤点、去噪声点以及点云取样等处理后实施封装,在封装的点云数据上采用Sketch模型实施贴图操作,实现视觉传达效果理想的震后区域三维图形的虚拟重建。实验证明,所提方法对震后区域的三维图像虚拟重建结果精度高、视觉效果好。  相似文献   
108.
Constitutive modeling of granular materials has been a subject of extensive research for many years. While the calculation of the Cauchy stress tensor using the discrete element method has been well established in the literature, the formulation and interpretation of the strain tensor are not as well documented. According to Bagi, 1 researchers mostly adopt well‐known continuum or discrete microstructural approaches to calculate strains within granular materials. However, neither of the 2 approaches can fully capture the behavior of granular materials. They are considered complementary to each other where each has its own strengths and limitations in solving granular‐mechanics problems. Zhang and Regueiro 2 proposed an equivalent continuum approach to calculating finite strain measures at the local level in granular materials subjected to large deformations. They used three‐dimensional discrete element method results to compare the proposed strains measures. This paper presents an experimental application of the Zhang and Regueiro 2 approach using three‐dimensional synchrotron microcomputed tomography images of a sheared Ottawa sand specimen. Invariant Eulerian finite strain measures were calculated for representative element volumes within the specimen. The spatial maps of Eulerian octahedral shear and volumetric strain were used to identify zones of intense shearing within the specimen and compared well with maps of incremental particle translation and rotation for the same specimen. The local Eulerian volumetric strain was compared to the global volumetric strains, which also can be considered as an averaging of all local Eulerian volumetric strains.  相似文献   
109.
基于不同测量高度重力场及其梯度数据可同时对应同一场源并用于反演场源位置的分析原理,拓展不同高度场数据在欧拉反褶积法中的应用范围.首先,立足于对欧拉反褶积方法的理论研究基础,提出不同高度数据融合联合欧拉反演公式.其次,在理论模型上对多种高度数据联合反演做了测试分析计算,验证了不同高度场数据融合联合欧拉反褶积法能够改善位场解释中单一观测面数据计算带来的解的发散问题,收敛过程由此改善.最后,将本文方法应用于龙门山地区实际重力数据的解释,获得了研究区断裂分布特征.  相似文献   
110.
Three‐dimensional receiver ghost attenuation (deghosting) of dual‐sensor towed‐streamer data is straightforward, in principle. In its simplest form, it requires applying a three‐dimensional frequency–wavenumber filter to the vertical component of the particle motion data to correct for the amplitude reduction on the vertical component of non‐normal incidence plane waves before combining with the pressure data. More elaborate techniques use three‐dimensional filters to both components before summation, for example, for ghost wavelet dephasing and mitigation of noise of different strengths on the individual components in optimum deghosting. The problem with all these techniques is, of course, that it is usually impossible to transform the data into the crossline wavenumber domain because of aliasing. Hence, usually, a two‐dimensional version of deghosting is applied to the data in the frequency–inline wavenumber domain. We investigate going down the “dimensionality ladder” one more step to a one‐dimensional weighted summation of the records of the collocated sensors to create an approximate deghosting procedure. We specifically consider amplitude‐balancing weights computed via a standard automatic gain control before summation, reminiscent of a diversity stack of the dual‐sensor recordings. This technique is independent of the actual streamer depth and insensitive to variations in the sea‐surface reflection coefficient. The automatic gain control weights serve two purposes: (i) to approximately correct for the geometric amplitude loss of the Z data and (ii) to mitigate noise strength variations on the two components. Here, Z denotes the vertical component of the velocity of particle motion scaled by the seismic impedance of the near‐sensor water volume. The weights are time‐varying and can also be made frequency‐band dependent, adapting better to frequency variations of the noise. The investigated process is a very robust, almost fully hands‐off, approximate three‐dimensional deghosting step for dual‐sensor data, requiring no spatial filtering and no explicit estimates of noise power. We argue that this technique performs well in terms of ghost attenuation (albeit, not exact ghost removal) and balancing the signal‐to‐noise ratio in the output data. For instances where full three‐dimensional receiver deghosting is the final product, the proposed technique is appropriate for efficient quality control of the data acquired and in aiding the parameterisation of the subsequent deghosting processing.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号